TikTok signalera les vidéos générées avec l’intelligence artificielle pour mettre fin aux escroqueries et à la désinformation

L’avalanche de vidéos générées avec l’intelligence artificielle est devenue un risque pour TikTok. Pour éviter d’être enterrée, la populaire plateforme vidéo a annoncé aujourd’hui qu’elle activerait un filigrane qui lui permettra de mieux détecter ce type de contenu synthétique pour l’éliminer s’il viole les normes de sa communauté. Ce système de marquage, invisible pour les utilisateurs et qui sera testé « dans les semaines à venir », aura pour défi d’apporter de la clarté dans un alimentation où l’IA occupe de plus en plus de place.

Propriété du géant chinois ByteDance, la société déploiera également une batterie de mesures dans cette même direction, notamment en donnant plus de pouvoir à plus d’un milliard d’utilisateurs dans le monde – 200 000 dans l’Union européenne – pour choisir la quantité de contenu d’IA qu’ils souhaitent voir et en créant un fonds éducatif de deux millions de dollars visant à accélérer la création de contenu « qui enseigne aux gens les connaissances et la sécurité de l’IA » dans un maximum de 12 marchés.

Le défi de l’IA générative n’est pas nouveau pour TikTok. En 2023, la plateforme a activé une fonctionnalité qui permet aux utilisateurs de marquer le contenu synthétique comme tel afin que leur public le sache. Ce mécanisme a depuis permis d’identifier jusqu’à 1,3 milliard de vidéos générées avec l’IA. Il y en a probablement beaucoup d’autres qui circulent au sein de l’application.

Arrêtez le contenu problématique

Avec cette méthode, TikTok vise à accélérer le respect de ses politiques et à mettre fin à des problèmes tels que la désinformation ou les escroqueries. Bien que le filigrane aide à la détection interne, l’entreprise dispose déjà de systèmes automatisés pour bloquer les contenus qui enfreignent les règles, explique Jade Nester, directrice de la politique de sécurité, de confidentialité et de données publiques de TikTok en Europe, à EL PERIÓDICO.

Au cours du seul premier semestre 2025, la société a supprimé plus de 70 millions de produits contrefaits censés être annoncés sur sa boutique en ligne, TikTok Shop, pour inciter les utilisateurs à ne payer rien. C’est ce qu’indique un récent rapport qui prévient que ces types d’arnaques à l’IA ont augmenté de 40 % par rapport au second semestre 2024. « Pour être honnête, il s’agit du crime organisé », a déploré Nicolas Waldmann, directeur de l’équipe des affaires extérieures pour la gouvernance et l’expérience chez TikTok Shop, dans des déclarations à Business Insider.

IA contre IA

Ironiquement, l’IA est aussi une alliée de TikTok. La plateforme utilise différentes technologies depuis des années, telles que des modèles de vision par ordinateur, des modèles d’identification de mots ou des modèles audio pour la modération du contenu. Ces systèmes ont permis, au premier semestre, d’éliminer automatiquement 86 % des contenus qui enfreignaient les règles et les décisions imprécises ont été réduites de 34 %. « L’IA nous aide à adapter la modération du contenu pour relever de nouveaux défis », explique Brie Pegum, directrice mondiale des risques réglementaires chez TikTok.

Là où les machines n’atteignent pas, c’est là que les modérateurs humains tentent d’atteindre, ce qui est crucial pour savoir lire le contexte de chaque vidéo. Et utiliser un couteau pour préparer une recette n’est pas la même chose que d’utiliser un couteau pour menacer quelqu’un. L’entreprise – qui en compte au moins 6 000 en Europe – assure que cette automatisation ne cherche pas à supprimer des emplois pour réduire les coûts, mais plutôt à compléter et rationaliser une tâche psychologiquement dangereuse. En ce sens, les modèles linguistiques appliqués par TikTok permettent de réduire de 76 % l’examen humain de contenus graphiques tels que les meurtres. « L’IA n’est pas parfaite, mais c’est un début prometteur », déclare Pegum.

Abonnez-vous pour continuer la lecture