les réseaux alerteront sur le contenu généré par l’IA

But a annoncé que « dans les prochains mois », il identifiera et étiquetera automatiquement les images photoréalistes Publié dans Facebook, Instagram et les fils de discussion créés avec Intelligence artificielle générative (IA) en utilisant des outils d'autres sociétés.

Les réseaux sociaux hébergent de plus en plus de contenus générés par l’IA générative avec une apparence réalistece qui rend difficile la distinction entre les publications à contenu humain et synthétique. Dans ce cadre, la société dirigée par Mark Zuckerberg a partagé son intention de continuer à aider les utilisateurs à savoir quand un contenu photoréaliste a été créé avec l'IA.

Balises vers le contenu généré par l'IA

Meta a partagé son enthousiasme pour « l'explosion de la créativité » qui ont été démontrés par les utilisateurs à l'aide de leurs nouveaux outils d'IA générative, comme le générateur d'images du 'chatbot' Meta Al, avec lequel il est possible de générer des images avec de simples invites de texte. Cependant, comme expliqué dans un communiqué, les utilisateurs « ils apprécient la transparence » autour de cette nouvelle technologie et, par conséquent, ils ont mis en œuvre le « Généré avec l'IA » dans les images photoréalistes créées avec votre outil Meta Al.

Désormais, Meta a indiqué que le contenu d'images photoréalistes créé avec l'IA générative à l'aide d'outils d'autres sociétés et publié sur Instagram, Facebook et fils de discussion, Ils intégreront également ces étiquettes automatiquement, afin d'informer les utilisateurs sur le type de contenu et éviter les confusions.

Ils seront mis en œuvre dans les prochains mois

Afin d'identifier et de labelliser ce type de contenu, l'entreprise a indiqué qu'elle travaillait avec des partenaires du secteur afin « d'harmoniser les techniques communes » qui indiquent lorsque le contenu a été créé avec l'IA, quel que soit l'outil ou le programme avec lequel il a été généré. Ainsi, Meta a partagé que ces labels commenceraient à être mis en œuvre « Dans les mois à venir » dans toutes les langues supportées par chaque réseau social. De même, la société dirigée par Zuckerberg a indiqué qu'elle mettrait en œuvre ce approche de transparence tout au long de cette année, avec l'objectif de « en apprendre beaucoup plus sur la façon dont les gens créent et partagent du contenu IA. » « Cela informera le meilleures pratiques de l'industrie et notre propre approche de l'avenir », a ajouté le président de Meta Global Affairs, Nick Clegg.

Normes communes d'identification

Dans le cadre de votre outil Objectif All'entreprise technologique a diverses méthodes pour signaler qu'il s'agit d'un contenu généré par l'IA. En plus Marqueurs visible et ÉtiquettesMeta présente filigranes invisible, comme métadonnées intégrées dans les fichiers image en question. Ainsi, plus est offert solidité lors de l'identification du contenu généré par l'IA, tant pour Meta que pour d'autres sociétés.

De la même manière, Meta propose d'accord sur ce type de mesures pour tout le contenu généré par l'IA apparaissant sur l'Internet. En ce sens, l'entreprise a précisé qu'elle travaillait avec des entreprises du secteur pour développer certains des normes communes permettant d'identifier le contenu à travers des forums tels que le Partenariat sur l’IA (PAI). Comme précisé, les marqueurs de métadonnées invisibles utilisés dans les images Meta Al « sont conformes » aux pratiques PAI.

Dans cette ligne, Meta crée également des outils capables d'identifier des marqueurs invisibles « à l'échelle », capable de reconnaître les informations générées par l'IA à partir des normes techniques C2PA et IPTC, pour pouvoir étiqueter les images de Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstockcar ces entreprises ajoutent des métadonnées aux images créées par leurs outils d'IA correspondants.

Les audios et vidéos seront également identifiés

En plus de tout cela, la société américaine a également souligné que, même si les différentes plateformes commencent à ajouter des signaux dans les programmes de génération d'images, ils n'ont pas encore commencé à inclure dans les outils d'IA qui créent audio et vidéo « à la même échelle. » Pour cette raison, Meta a précisé qu'elle ne peut toujours pas détecter les signaux dans ce type de contenu provenant d'autres sociétés et, par conséquent, Vous ne pouvez pas l'étiqueter.

Dans ce cadre, alors que les entreprises commencent à incluez ces signaux dans vos vidéos et audios générés par l'IAMeta a indiqué qu'ils mettront à la disposition des utilisateurs un fonction à partir duquel informer lorsque ce type de contenu est partagé sur leurs réseaux sociaux, afin que la plateforme peut ajouter une balise.

De même, dans le cas où les utilisateurs publient du contenu avec une vidéo photoréaliste ou un son réalistequi ont été créés ou modifiés numériquement, et ne le signalez pas, Meta peut s'appliquer les sanctions. En effet, au cas où Meta considérerait que le contenu « crée un risque de tromperie particulièrement élevé sur une question importante »vous pouvez ajouter une étiquette « plus visible » pour fournir des informations plus précises.

De nouvelles formules pour détecter l’IA

Malgré tout cela, Meta a souligné que ces mesures représentent « ce qui est techniquement possible à l'heure actuelle », tout en prévenant qu'actuellement, « il n'est pas possible d'identifier tous les contenus générés par l'IA » et qu’en plus il existe des moyens d’éliminer les marqueurs invisibles.

Dans ce cadre, en regardant vers l'avenir, l'entreprise a indiqué que ils continuent à travailler développer classificateurs qui aident à détecter le contenu généré par l'IA « même s'il manque de marqueurs invisibles ». De la même manière, ils travaillent également à chercher des moyens de rendre plus difficile la suppression ou la modification des filigranes invisible dans le contenu généré par l’IA.

Un exemple de la progression vers ces objectifs est un recherche récente réalisé par le laboratoire de recherche Meta AI, ÉQUITABLEqui montre un technologie de filigrane invisible qu'ils appellent « Signature stable ». Cette méthode intègre le mécanisme de tatouage directement dans le processus de génération d'images, ce qui en fait le filigrane ne peut pas être désactivé.

Un espace de plus en plus défavorable

« Il est probable que dans les années à venir, cela deviendra de plus en plus une négatif. Les personnes et les organisations qui souhaitent tromper activement les gens avec du contenu généré par l'IA chercheront des moyens de contourner les garanties qui sont établis pour le détecter. Nous devrons donc « Continuez à chercher des moyens de garder une longueur d'avance. »s'est manifesté Clegg.

Afin d'éviter le partage contenu trompeur généré par l'IA, Meta a également recommandé aux utilisateurs de prendre en compte des problèmes tels que la vérification que le compte partageant le contenu est digne de confiance ou la recherche de détails qui peuvent sembler artificiels.

L'IA comme bouclier

Avec tout cela, Meta a souligné qu'ils utilisent également l'IA dans leur systèmes d'intégrité comme une méthode importante pour détecter ce type de contenu. En ce sens, il a souligné que l’IA est aussi un protéger contre les contenus trompeurs. Par exemple, l’IA aide détecter et combattre les discours de haine ou tout autre contenu qui enfreint leur politiques comportementales sur toutes les plateformes Meta. À tel point que, grâce à cette technologie, ils sont parvenus à ce que, pour 10 000 vues de contenu, seules une ou deux publications contiennent des incitations à la haine.

De même, un autre exemple de cette utilisation est le formation de grands modèles linguistiques (LLM) avec les normes de la communauté Meta, ce qui permet de déterminer si le contenu enfreint leurs politiques. « Les outils d'IA générative offrent d'énormes opportunités, et nous pensons qu'il est possible et nécessaire que ces technologies soient développées de manière transparente et responsable », a conclu Clegg.