Les notes communautaires et la vérification des faits sont des stratégies complémentaires contre la désinformation, et non exclusives.

Meta, la société propriétaire des réseaux sociaux comme Instagram ou Facebook, cessera de financer la vérification indépendante des faits. C’est ce qu’a annoncé son PDG, Mark Zuckerberg, dans une vidéo Instagram dans laquelle il annonçait également des changements dans la modération des discours de haine (elle sera plus laxiste), et dans laquelle il accusait faussement les « fact-checkers » de censurer les informations (En en fait, votre travail consiste à fournir un contexte). Le propriétaire d’Instagram et de Facebook remplacera sa collaboration avec les agences de vérification, à commencer par les États-Unis, par un système de notes communautaires similaire à celui utilisé par X (anciennement Twitter).

L’idée est que ce sont les utilisateurs des plateformes eux-mêmes qui peuvent ajouter du contexte au contenu lorsqu’ils le jugent nécessaire. La plateforme publiera les notes uniquement lorsque différentes personnes ayant des points de vue différents conviendront qu’il s’agit d’informations utiles.

L’idée selon laquelle la communauté des utilisateurs est responsable de la vérification du contenu en ligne n’est pas nouvelle. En fait, diverses recherches académiques, comme celle publiée dans « Science » en 2021, la proposent comme moyen d’élargir la vérification professionnelle : Il y a tellement de mensonges en ligne que les vérificateurs de faits ne peuvent pas tous les corriger.permettant à la collaboration sociale d’atteindre plus rapidement davantage de coins d’Internet.

Lettre ouverte

« Nous avons beaucoup de travaux suggérant que les évaluations des groupes d’utilisateurs sont utiles, mais en complément de la vérification professionnelle des faitspas comme un substitut », explique David Rand, chef de groupe au Département des sciences cognitives et du cerveau de la Sloan School du Massachusetts Institute of Technology (MIT), et auteur de plusieurs publications universitaires sur le sujet. Ce que 124 organismes de vérification du monde entier ont également défendu dans une lettre ouverte publiée le 9 janvier.

L’expert rappelle que « les avis des ‘fact-checkers’ réduisent considérablement la croyance et le nombre de partages de fausses déclarations ». C’est quelque chose que son équipe de recherche a publié à plusieurs reprises dans des revues telles que Nature Human Behaviour et Current Opinion in Psychology. Néanmoins, la mesure dans laquelle les vérifications et les fausses alertes ultérieures stoppent la propagation de la désinformation sur les réseaux dépend de facteurs tels que l’émotion que le contenu original suscite chez l’utilisateur et la manière dont un message est rédigé. Facte-vérification.

L’impact des notes communautaires, en revanche, est plus méconnu. Son application à grande échelle dans X est relativement récente (son utilisation a été étendue au monde entier en décembre 2022), les recherches à ce sujet sont donc encore rares.

Les premiers résultats suggèrent que, même si la grande majorité des notes publiées sont correctes, sa visibilité est bien inférieure à celle des faux contenus et, en fait, trois sur quatre ne finissent jamais par être rendues publiques. C’est la conclusion d’une enquête menée par les Centres contre la haine numérique (CCDH), qui a analysé 283 publications fausses et trompeuses dans le contexte des élections américaines. 209 d’entre eux avaient certaines notes communautaires que la plateforme n’a jamais montrées.

Sujets controversés

« L’idée des notes communautaires dépend du fait qu’un grand groupe d’utilisateurs conviennent qu’un ‘fact-check’ écrit par quelqu’un est utile », explique Callum Hood, responsable de la recherche au CCDH, à Verificat. « Le problème est que Sur des questions qui divisent réellement, vous ne parviendrez pas à convaincre un grand groupe d’utilisateurs de parvenir à un accord.». Il poursuit : « par conséquent, les notes de la communauté ne fonctionnent pas sur des sujets controversés », là où elles sont le plus nécessaires. Leurs résultats coïncident avec les enquêtes journalistiques de « Bloomberg » et de « Mashable ».

D’autre part, une étude récente a montré que, dans des environnements contrôlés, les vérifications effectuées par les utilisateurs coïncident avec celles des « fact-checkers », et ont tendance à nuancer davantage les propos tenus par les personnes qui s’identifient comme conservatrices. Cela se produit, selon cette recherche et d’autres, du simple fait que ledit spectre politique a tendance à partager plus fréquemment des commentaires imprécis.

« Toute politique neutre qui tente de remédier à la manière dont les informations de mauvaise qualité sont partagées finira par pénaliser davantage les conservateurs et, potentiellement, semblera biaisé, même s’il n’a pas de tels préjugés», conclut l’expert. Vérifier tout le monde de la même manière, comme le font les « vérificateurs de faits », reflète les caractéristiques du discours de chacun, et non les préjugés des journalistes. C’est quelque chose que nous avons déjà vu, par exemple, lors des élections catalanes de 2024.

Abonnez-vous pour continuer la lecture