Le réseaux sociaux Ils font appel à la Émotionsen particulier dans les situations de crise et les doses importantes désinformation. Certaines réactions qui diffèrent en fonction du réseau social. Le paradigme émotionnel n’est pas le même car chaque plate-forme active différents processus cognitifs et sensoriels.
Une étude menée par des chercheurs de l’Université de l’Université de Valence (UPV) a réussi à identifier un phénomène peu étudié: différents réseaux sociaux, différentes émotions. Une fois que des centaines de messages ont été analysés dans X et dans Tiktokles chercheurs ont conclu que la désinformation Dana En x, il est principalement associé à une plus grande tristesse et peur, tandis que dans Tiktok Il est en corrélation avec une plus grande colère et dégoût.
« Dans Xétant principalement du contenu textuel, les utilisateurs doivent interpréter les informations, ce qui favorise une réponse émotionnelle plus introspective, où les récits sont élaborés qui mettent en évidence les tragédies et les faits négatifs d’une manière plus tranquille, déclenchant des sentiments de tristesse et de peur. Au lieu de cela, Tiktok, en intégrant des éléments visuels et auditifs, offre une expérience multisensorielle qui produit des réponses immédiates et plus intenses », a expliqué le Chercheurs UPV Paolo Rosso et Iván Arcos, qui ont conclu que les émotions réactives et viscérales qu’elle génère Tiktok Ils se concentrent sur le va et le dégoût.
Ce sont quelques-unes des conclusions qu’ils ont parvenues dans l’étude « Modèles émotionnels divergents dans la désinformation dans les réseaux sociaux. Une analyse des tweets et des tiktoks sur le Dana à Valence » Réalisé par des chercheurs de l’Université de l’Université de Valence Iván Arcos et Paolo Rosso et Ramón Salaverría, de l’École de communication de l’Université de Navarra.
Polarisation émotionnelle
La musique dramatique, les variations tonales et les effets visuels du réseau social chinois agissent comme des catalyseurs qui déclenchent ces émotions moins méditées. De plus, le public de Tiktok « Habitués au contenu de succession dynamique et rapide, ils ont tendance à traiter les informations plus immédiatement, ce qui contribue à la polarisation émotionnelle contre la désinformation », concluent Rosso et ArcOS, qui développent leur travail au PRHLT Research Center.
L’étude, développée dans le cadre de l’Observatoire des médias numériques ibérique et publiée lors de la conférence ICART-2025 Artificial Intelligence, a été réalisée après avoir analysé la diffusion de désinformation dans ces deux réseaux sociaux pendant le Dana de Valence le 29 octobre. Pour cela, les modèles émotionnels et linguistiques de 650 publications de X et Tiktok ont été analysés.
Stratégie délibérée
Le rapport renforce la conclusion que l’appel aux émotions est une stratégie délibérée et récurrente dans le Messages trompeurs. De même, l’analyse linguistique des messages montre que les contenus fiables utilisent un langage plus articulé tandis que les faux messages utilisent des refus, des anecdotes personnelles ou des références aux membres de la famille pour légitimer leurs déclarations par des témoignages directs et être crédibles.
Mots clés
Dans le processus d’analyse des messages publiés sur les réseaux sociaux, des mots clés liés au Dana ont été utilisés. Certains des mots clés les plus utilisés étaient ‘conspiration‘,’Dissimulation des décès‘,’tromperie‘,’manutention‘,’mensonges‘,’Cimetière Bonaire‘,’Aide rejetée‘ soit ‘causé des proies‘.
Les audios des publications sur Tiktok ont également été analysés et ont permis de différencier différents modèles: des audios fiables montrent des tons plus brillants et récits robotiques ou monotonesqui génère de la clarté et de la crédibilité. Cependant, les messages qui répartissent la désinformation ont utilisé la variation tonale, la profondeur émotionnelle et les éléments musicaux pour modifier la perception.
Compte tenu de l’augmentation de la désinformation des réseaux sociaux, les chercheurs soulignent l’utilisation de l’intelligence artificielle pour assister aux plateformes et vérifier le contenu, car «ils pourraient analyser automatiquement des milliers de publications, détecter les modèles caractéristiques de désinformation et informer les modérateurs.
Abonnez-vous à continuer à lire