Le réseau social TikTok, propriété du groupe chinois ByteDance, a annoncé avoir supprimé de sa propre initiative quatre millions de vidéos jugées illégales ou nuisibles dans l’UE en septembre, selon un rapport publié mercredi. La plateforme assure disposer d’un effectif de 6.125 personnes dédiées à la modération des contenus dans la seule Union européenne, sur un total de 40.000 personnes chargées de protéger ses utilisateurs dans le monde.
«La vaste majorité des actions prises par TikTok contre des contenus illégaux ou nuisibles le sont de façon proactive» parce que ceux-ci violent les règles du réseau social, a déclaré le groupe dans un rapport sur son activité de modération au sein des 27 pays de l’UE. «Ces retraits sont largement plus nombreux que ceux relatifs à des signalements d’utilisateurs», a-t-il souligné.
Dans un objectif de transparence accrue, la publication d’un tel rapport tous les six mois est une obligation imposée par la nouvelle législation européenne sur les services numériques (DSA) entrée en vigueur fin août pour 19 très grandes plateformes, dont TikTok.
La Commission européenne a par ailleurs ouvert ces deux dernières semaines des enquêtes visant X (ex-Twitter), Meta (Facebook, Instagram) et TikTok, réclamant des précisions sur les mesures qu’ils mettent en œuvre contre la diffusion de «fausses informations» et de «contenus illégaux», après les attaques du Hamas contre Israël.
Dans son premier rapport de transparence publié mercredi, TikTok, qui revendique 134 millions d’utilisateurs actifs chaque mois à travers l’Europe, s’est dit «fier» de ses efforts tout en reconnaissant «avoir encore du travail à fournir».
Le réseau social explique avoir introduit un outil permettant à sa communauté d’utilisateurs européens de signaler des contenus illégaux, conformément aux obligations du DSA. TikTok indique avoir reçu 35.000 signalements relatifs à 24.000 vidéos, au cours du premier mois. Des actions ont été entreprises contre 16% d’entre elles, jugées illégales ou contraires aux règles internes.
La durée médiane entre signalement et action a été de 13 heures, a expliqué le groupe, en soulignant l’analyse juridique difficile qu’il devait mener pour être équitable et cohérent, tout en tenant compte de la liberté d’expression.
Les personnes impliquées dans la modération des contenus s’appuient aussi sur des outils automatisés. Un tiers d’entre elles travaillent en anglais. Le service emploie également 869 germanophones et 687 francophones. L’équipe comprend des locuteurs des 24 langues officielles de l’UE mais aussi des personnes capables de surveiller les publications en turc et en arabe, deux langues fréquemment utilisées.