Les dirigeants de Tik TokIls connaissaient les dégâts que l’application pouvait causer chez les adolescents. Leurs propres enquêtes ont confirmé quelques problèmes de sécurité des enfants, comme par exemple que des mineurs se déshabillaient en direct sur la plateforme à la demande d’adultes, ou que leurs filtres de beauté pouvaient influencer leur santé mentale. Mais d’après ce que révèlent les communications internes de l’entreprise, il ne semble pas qu’ils aient fait grand-chose pour les protéger.
Cette information a été rendue publique grâce à la fuite de la documentation interne du réseau social à laquelle NPR, la radio publique américaine, a accédé. Dans un article, ils expliquent qu’après la publication d’un article de Forbes en 2022, dans lequel il était rapporté que des mineurs se déshabillaient en direct sur la plateforme – ils ont qualifié cela de Club de strip-tease rempli de filles de 15 ans-, l’entreprise a lancé sa propre enquête.
« C’est à ce moment-là que les responsables de TikTok ont réalisé qu’il y avait un nombre « élevé » de streams auprès de mineurs qui ont reçu une monnaie numérique dans l’application comme ‘cadeau’ ou ‘pièce de monnaie’ en échange de leur mise à nu : de l’argent réel converti en monnaie numérique, souvent sous la forme d’un jouet en peluche ou d’une fleur », expliquent-ils.
Ils ont découvert qu’un nombre important d’adultes envoyaient des messages directs aux garçons et aux filles pour leur demander de se déshabiller. En seulement un mois, ils ont vérifié un million de « cadeaux » à des mineurs ayant participé à des comportements « transactionnels ».
Engager les mineurs
Mais ce n’est pas la seule chose qu’ils ont trouvée. Les documents non expurgés, qui font partie d’une enquête de plus de deux ans sur TikTok menée par 14 procureurs généraux et qui a conduit les autorités américaines à poursuivre l’entreprise en justice mardi dernier, montrent également que les employés savaient que Le temps excessif que les adolescents passent sur les réseaux sociaux peut nuire à leur santé mentale.
Malgré la création d’un outil permettant aux mères et aux pères de fixer des limites de temps d’utilisation de l’application par les mineurs à 60 minutes par jour, le réseau social a conclu qu’il avait peu d’impact : le temps n’a baissé que de 1,5 minute en utilisation, passant de 108,5 minutes à 107. Les documents confidentiels soulignent que la société n’a plus abordé cette question.
C’est beaucoup de temps d’utilisation pour un adolescent, surtout lorsqu’il est conscient que l’algorithme hyper-personnalisé de la plateforme peut être excessivement attractif. Pour acquérir cette habitude, il suffit de regarder 260 vidéos qui, même si a priori semblent beaucoup, « ne peuvent durer que huit secondes et sont diffusées en succession rapide et automatiquement », écrivent les chercheurs, comme en témoigne la demande. «
Ainsi, en moins de 35 minutes, un utilisateur moyen est susceptible de devenir accro à la plateforme« , ajoutent-ils.
Dans un autre document interne, ils ont constaté que l’entreprise était consciente que ses fonctionnalités conçues pour maintenir les jeunes sur l’application « généraient un besoin constant et irrésistible » de continuer à l’ouvrir.
Santé mentale
Et, poursuivant avec les fonctions, le litige contre TikTok a également souligné que TikTok était conscient des dommages causés par les filtres de beauté que les utilisateurs utilisent pour se voient dans des vidéos plus minces, avec un nez plus fin ou des lèvres plus larges.
Plus précisément, ils parlent de Filtre « Glamour audacieux »ce qui était assez controversé car considéré comme « dérangeant ». Il utilise l’intelligence artificielle pour modifier les visages des gens et les faire ressembler à des mannequins aux pommettes saillantes et à la mâchoire forte.
Les employés, selon des documents obtenus par NPR, ont suggéré en interne à l’entreprise « d’offrir aux utilisateurs des ressources éducatives sur les troubles de l’image » et de créer une campagne « pour sensibiliser aux problèmes de faible estime de soi (causés par l’utilisation d’un filtrage excessif et d’autres problèmes). De plus, ils ont suggéré d’ajouter à ces filtres une bannière ou une vidéo comprenant « une déclaration de sensibilisation sur les filtres et l’importance d’une image corporelle positive et de la santé mentale ».
Et ce n’est pas tout : les documents montrent que le l’application donne la priorité aux belles personnes grâce à la refonte de son algorithme. « En modifiant l’algorithme de TikTok pour afficher moins de ‘sujets peu attrayants’ dans le flux ‘Pour vous’, (TikTok) a pris des mesures actives pour promouvoir une norme de beauté étroite, même si cela pourrait avoir un impact négatif sur ses jeunes utilisateurs », ont écrit les autorités du Kentucky.
Contenu incontrôlé
Ils sont également conscients du « filtrer les bulles »c’est-à-dire que l’utilisateur « ne trouve que des informations et des opinions qui sont conformes et renforcent ses propres croyances, causées par des algorithmes qui personnalisent l’expérience en ligne d’un individu », ce qui présente des dangers connus.
Une information désormais révélée montre que lors d’une présentation interne sur la sécurité en 2020, des salariés avaient prévenu que l’application « peut offrir contenu potentiellement dangereux dans les plus brefs délais« . L’entreprise a mené des expériences internes avec des comptes tests. Un employé a affirmé qu’il y avait « de nombreuses vidéos mentionnant le suicide », dont une qui demande: « Si vous pouviez vous suicider sans blesser personne, le feriez-vous? »
De plus, selon les propres études de TikTok, ils savaient queCertains contenus sur le suicide et l’automutilation ont échappé aux premiers cycles de modération humaine.. En effet, même si la première phase de contrôle du contenu est effectuée par l’intelligence artificielle, la seconde est effectuée par des personnes en fonction du nombre de vues de la vidéo.
Ainsi, l’étude indique vidéos d’automutilation qui ont été vues plus de 75 000 fois avant que TikTok ne les identifie et ne les supprime. De plus, TikTok reconnaît en interne qu’il présente des taux de « fuite » importants de contenus qui, bien qu’ils devraient être interdits, ne sont pas supprimés. Des documents internes parlent d’un enfant envoyé aux urgences après avoir tenté un dangereux défi de plateforme.