Est-ce l’année où la désinformation sur les plateformes aura libre cours ?

En annonçant cette semaine que Facebook mettait fin, pour l’instant aux Etats-Unis, au financement des organisations dédiées au fact-checking, Mark Zuckerberg a souligné sa volonté de ne pas contrarier le nouveau président Trump. Mais il a aussi souligné que sur les réseaux sociaux la modération des contenus faux ou carrément toxiques est en déclin depuis des années.

Ainsi, sur Twitter, depuis son rachat par Elon Musk en 2022, de multiples enquêtes ont montré une croissance accélérée des insultes et menaces dirigées contre des scientifiques, des médecins ou des climatologues, entre autres. En plus des messages racistes et des commentaires haineux devenus viraux plus facilement.

Les médias spécialisés dans vérification des faitsque Mark Zuckerberg accusait de censure dans son message, a réagi rapidement pour rappeler qu’ils n’ont jamais eu le pouvoir de faire disparaître quoi que ce soit sur Facebook : Facebook a tout pouvoir sur les étiquettes qui peuvent être apposées sur les messages (« faux » ou « trompeurs »). »), ainsi que sur les impacts de ces labels (réduction de portée ou « démonétisation »).

Au fil des années, les médias américains rapportent Histoires principales« nous avons souvent recommandé à Meta des modifications de la taille ou du libellé des étiquettes », mais sans succès. À cela s’ajoute le fait que les ressources limitées des organismes de vérification des faits ne leur permettent de vérifier qu’une petite partie des informations douteuses, explique le président de l’Institut Poynter, qui dirige le média. Fait politique .

Avec cette annonce, « la bataille pour la modération des contenus est enfin perdue », écrit le chroniqueur technologique de la revue scientifique. New Scientist le 7 janvier. C’est également la réaction du News Literacy Project, une organisation américaine dédiée à l’éducation à l’information : « ce geste montre que Meta a largement abandonné les efforts de modération qui rappellent les faits et encouragent les gens à rechercher des sources d’information crédibles et normées. . Cependant, les utilisateurs de Facebook « sont vulnérables à la manipulation par des acteurs malveillants qui promeuvent des sources non fiables et fabriquent des informations spécifiquement pour exploiter nos biais cognitifs, y compris notre désir de confirmer nos idées et croyances préconçues ».

Les origines d’un partenariat avec Facebook

Cette « bataille » pour la modération des contenus sur les plateformes a débuté en partie fin 2016 avec le choc représenté par l’élection du Donald Trump. Pour la première fois, les plateformes ont été contraintes d’admettre que la prolifération de la désinformation n’était pas marginale, comme elles l’avaient prétendu auparavant. Dans ce contexte, Facebook a créé en décembre 2016 un programme de vérification des données confié à des « tiers », c’est-à-dire des médias accrédités par un organisme indépendant, l’International Data Verification Network (IFCN), chargé de s’assurer qu’ils signent un Code de déontologie. Principes : Il s’agit d’un engagement à produire du contenu « non partisan ».

Élargi en 2017 à d’autres pays, le programme a permis l’émergence de plusieurs petits médias qui, de ce fait, sont devenus dépendants du financement de la multinationale américaine : un média reçoit de l’argent au prorata des vérifications qu’il peut effectuer.

Lorsque la pandémie a frappé en 2020, l’ampleur de la menace a laissé croire que les plateformes avaient pris conscience de l’influence dangereuse qu’elles pouvaient avoir sur la santé publique : pour la première fois, elles avaient réagi d’un commun accord. Par exemple, toute recherche Google contenant des mots-clés tels que « COVID » ou « vaccins » était rapidement accompagnée de liens vers l’Organisation mondiale de la santé ou le ministère de la Santé du pays. Facebook et Twitter avaient également mis en avant ces liens. YouTube avait ajouté des panneaux menant à des sources crédibles et surtout apolitiques.

Cependant, nous avons rapidement réalisé que ce n’est pas parce qu’un contenu était qualifié de « faux » qu’il disparaissait de l’espace public. Déjà à l’été 2020, une étude de l’Université McGill concluait que le niveau d’exposition aux réseaux sociaux semblait favoriser de fausses croyances concernant la COVID et réduire le respect des mesures sanitaires. Il semble y avoir un manque de volonté d’agir : les rapports soulignent souvent qu’il peut s’écouler des mois avant que les comptes signalés pour discours de haine ne soient fermés.

Problème encore plus grave

En 2021, nous avons appris que les informations COVID les plus populaires sur Facebook au premier trimestre étaient de fausses nouvelles. Enfin, à l’automne 2021, les « Facebook Docs » (des dizaines de milliers de pages distribuées aux médias par un ancien salarié, Frances Haugen) a révélé que les dirigeants de Facebook en savaient bien plus qu’ils ne l’avaient publiquement admis sur les impacts néfastes des algorithmes, depuis leur influence sur les massacres au Myanmar jusqu’à la montée en puissance de QAnon et des groupes anti-vaccins.

Selon une enquête menée dans 54 pays en 2023 auprès de 300 universitaires spécialisés dans la désinformation, les deux tiers considéraient que « l’incapacité à tenir les sociétés de médias sociaux responsables » de leur inaction face à la désinformation et aux discours de haine poserait tôt ou tard un problème encore plus grand. sérieux. L’une des préoccupations était que les hommes politiques des pays démocratiques commenceraient à « emprunter » des stratégies de communication à ceux des régimes autoritaires, compte tenu du succès que leur ont apporté les algorithmes.

Dans son annonce du 7 janvier, Mark Zuckerberg a déclaré que le programme tiers serait remplacé par un programme de « notes communautaires » (notes écrites par les utilisateurs eux-mêmes) comme celui qui existe sur Twitter depuis 2021.

Son efficacité reste toutefois à démontrer : selon une étude publiée en novembre dernier, l’arrivée de ces notes sur Twitter (désormais X) n’a pas réduit « l’engagement » dans la désinformation. Les chercheurs qualifient le système de trop lent : il faut qu’un nombre inconnu de participants aient approuvé une note pour qu’elle apparaisse dans un message, ce qui peut prendre des jours, alors que les lecteurs de ce message sont depuis longtemps passés à autre chose. De plus, pour savoir si un message est vrai ou faux, il faut enquêter pendant quelques heures ou quelques jours, ce que peuvent se permettre les journalistes rémunérés, mais pas les citoyens volontaires. Dans un article publié en décembre, le site de fact-checking Commentaires scientifiques a écrit que 69 % des 900 messages sur X qui avaient été identifiés comme faux ou trompeurs n’avaient pas été évalués par la communauté.

Un débat sur la modération à suivre en Europe ?

En 2025, le débat sur la modération pourrait se déplacer en Europe. Un aspect de la loi européenne sur le numérique adoptée en 2023 ( Loi sur les services numériques ) est qu’elle exige que les grandes plateformes soient plus transparentes sur leurs systèmes de recommandation de contenu, c’est-à-dire leurs algorithmes. La loi impose notamment aux plateformes de mettre en place un système de signalement des contenus problématiques. C’est dans ce contexte que la Commission européenne a annoncé en décembre 2023 une enquête sur X, pour violations présumées des règles européennes en matière de modération et de transparence des contenus.