« Ce n'est pas l'algorithme, la toxicité sur les réseaux sociaux est humaine »

« J'ai aussi parfois exprimé une toxicité en ligne, mais il vaut mieux ne pas l'écrire. Nous pouvons tous le faire. » Et en disant cela – moitié en plaisantant, moitié sérieusement -, Walter Quattrociocchi (Marin, 1980), data scientist et chercheur à l'Université Sapienza de Rome, laisse échapper un rire qu'il répétera plusieurs fois tout au long de l'entretien, peut-être le résultat d'un certain manque d'inhibition ou du cynisme typique des empiriques. Car aujourd’hui, lorsque l’on discute avec lui, son nom – comme celui de dizaines d’autres chercheurs – résonne déjà dans la communauté académique. La raison en est que, cherchant à comprendre le comportement humain à notre époque, à travers l'analyse mathématique et statistique, ce professeur et responsable du Centre pour les sciences des données et la complexité de la société de son université aurait pu découvrir une clé pour comprendre la toxicité sur les réseaux sociauxl'un des aspects les plus problématiques des interactions dans l'Internet. C'est du moins ce que suggèrent leurs dernières recherches révolutionnaires, lancées il y a plus de deux ans et désormais publiées dans la prestigieuse revue « Nature », qui a même retenu l'attention de la Commission européenne.

-Il affirme qu'après avoir analysé 500 millions de messages publiés pendant 34 ans sur huit plateformes, il est arrivé à la conclusion que c'est nous qui sommes toxiques, pas les réseaux ou l'algorithme.

-Exact. Ce n'est pas l'algorithme, c'est nous. Cela change tout, non ? D’autant plus que nous disons depuis des années que ceux qui créent des problèmes sont Twitter et Facebook, et ce n’est pas ce qui ressort de notre étude. Nous avons analysé des messages écrits à différentes époques, contextes et sur différents arguments… Il suffit de regarder les plus anciens blogs, ou chats IRC ; La dynamique y était la même. Cela devrait nous faire réfléchir sur le fait que nous posons peut-être le problème de la mauvaise manière. C'est le comportement humain qui persiste.

« La toxicité ne fait pas peur aux utilisateurs ; bien au contraire, dans de nombreux cas, cette agressivité apparaît dès le début »

Pourquoi est-ce comme ça ?

Nous devons d’abord décider de ce que nous appelons la toxicité. Dans notre cas, nous avons défini la toxicité comme un commentaire vulgaire, irrespectueux ou déraisonnable susceptible d'amener quelqu'un à quitter une discussion. Mais cela ne s’est pas avéré vrai non plus. Ce que nous avons découvert, c'est qu'il existe une certaine résilience aux discours toxiques, c'est-à-dire que la toxicité ne fait pas peur aux utilisateurs, elle ne met pas fin à leurs discussions ; Au contraire, dans de nombreux cas, cette agressivité apparaît dès le début des conversations.

Nous aimons.

Oui, on aime ça, car sur Internet on est aussi conscient que personne ne s'en fout vraiment, il n'y a pas de contact physique. Ce ne sont que des mots, donc cela finit par être un moyen de se défouler. Ceci, dans un sens, est positif, ou du moins plus positif que l’agression physique, mais cela a quand même été une surprise de découvrir que la toxicité à elle seule n’est pas un facteur qui perturbe l’interaction.

« Sur Internet, vous êtes conscient que personne ne vous en a vraiment rien à foutre, il n'y a pas de contact physique »

Leur étude indique également que la toxicité n’augmente pas lors de conversations plus longues.

En effet. Plus il y a de commentaires, moins ils sont toxiques.

Ne pensez-vous pas qu'ils courent le risque d'exonérer une industrie rentable avec toutes sortes d'intérêts ?

Je n'exonère personne; mon approche est neutre. En fait, l’un de nos objectifs était de distinguer quel comportement est humain et lequel est dû au facteur algorithmique. Le résultat est que, dans une étude réalisée sur différentes plateformes, la toxicité ne varie pas, elle reste stable. Je pense que c'est utile pour trouver des solutions, ce qui ne veut pas dire qu'il n'y a pas de toxicité sur les plateformes.

« Ce n'est pas vrai que la toxicité a augmenté ces dernières années »

Alors y a-t-il ou non une augmentation de la toxicité ces dernières années ?

Non, ce n’est pas vrai non plus. En termes statistiques, il y a eu quelques fluctuations au fil des années, mais elles ont été minimes.

Certains profils sont-ils plus sujets à la toxicité ?

Si vous demandez s’il existe une plus grande propension chez les femmes ou chez les hommes, ou au sein de certaines générations, la réponse est non. Cette histoire de « haineux » non racheté n’existe pas non plus. Bien sûr, si vous rencontrez quelqu’un en ligne qui a une opinion différente sur un sujet qui vous intéresse, la probabilité de commentaires toxiques augmente. Mais cela est aussi dû au tribalisme, et nous l’avons déjà détecté dans d’autres études il y a des années.

« L'algorithme privilégie effectivement les tribus, les utilisateurs qui partagent un discours »

Tribalisme?

Oui, dans les réseaux, des tribus se forment et construisent un discours partagé. Et cela est favorisé par l’algorithme, dont l’objectif principal est de maintenir les utilisateurs sur la plateforme le plus longtemps possible. Par conséquent, l’algorithme encourage les interactions avec les personnes et le contenu avec lesquels vous avez déjà interagi, créant ainsi des « chambres d’écho ». Si vous aimez le Real Madrid, vous verrez plus de contenu lié au Real Madrid. C'est ainsi que se forment ces tribus. Les anti-vaccins se regroupent avec les anti-vaccins, les pro-vaccins avec les pro-vaccins, les pro-russes avec les pro-russes, les anti-russes avec les anti-russes, etc.

Il a déclaré que les grandes entreprises ne sont pas coupables. Cependant, peuvent-ils faire quelque chose pour éviter cette toxicité ?

Ils pourraient financer des recherches visant à expliquer aux gens quels outils ils peuvent utiliser pour éviter les commentaires toxiques et faire preuve de retenue. Mais il faut d’abord comprendre que le facteur humain est central.

Si cette réalité persiste depuis si longtemps, n’est-il pas utopique de penser qu’elle a une solution ?

Non. Les humains apprennent, nous ne sommes pas des machines ; C'est pourquoi nous pouvons prendre conscience de la manière dont nous nous comportons « en ligne » et de la manière dont nous devrions nous comporter. Je l'ai également mentionné lors d'une récente réunion avec la Commission européenne.

La Commission européenne ?

Oui, le ministère de la Justice s'est intéressé à l'étude et m'a convoqué. J'irai en juin. Même s’il reste encore beaucoup de choses à découvrir. Par exemple, quel impact cela a-t-il dans le monde réel. Une autre question qui m’obsède est la polarisation, un comportement étroitement lié au toxicisme et dont le bon sens, même s’il n’existe pas encore d’analyse scientifique, suggère qu’il pourrait être associé à la croissance des inégalités. Étudier les sociétés à travers les données est une ressource très précieuse.

Abonnez-vous pour continuer la lecture