•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Les erreurs douteuses de modération se multiplient sur TikTok

Un téléphone cellulaire où l'application TikTok affiche 15 notifications.

TikTok reste mystérieuse sur le fonctionnement de ses algorithmes.

Photo : afp via getty images / MARTIN BUREAU

Radio-Canada

L’influenceur de la communauté noire Ziggi Tyler a eu toute une surprise en voyant la mention Black Lives Matter être rejetée de sa biographie sur une plateforme de TikTok. Le réseau social l’a signalée comme étant inappropriée avant de plaider un bogue et de rétablir la situation.

Après la disparition accidentelle du mot-clic #intersexe en début d’année et le blocage par erreur des mots asian women (femmes asiatiques) de la fonction de sous-titrage automatique de TikTok, c’est au tour des activistes de la communauté noire d’être la cible d’un nouveau raté de l’outil de modération du réseau social chinois.

Selon le magazine MIT Technology Review, le système de modération automatique de TikTok semble comporter des défaillances qui ciblent davantage les personnes marginalisées.

L’exemple de Ziggi Tyler est l’un des derniers à ce jour. L’influenceur et activiste de la communauté noire a souhaité, sans succès, inclure Black Lives Matter (La vie des personnes noires compte) dans sa biographie sur la plateforme Creator Marketplace de TikTok, qui relie les marques aux créateurs et créatrices de contenus.

Voyant ces mots refusés, il a tenté d’ajouter, en vain, supporting black people (en soutien aux personnes noires), supporting black voices (en appui aux voix des personnes noires) et finalement supporting black success (en soutien au succès des personnes noires). Toutes ces propositions ont été signalées comme étant inappropriées par TikTok.

Ziggi Tyler est toutefois parvenu à publier sans remontrances ces mêmes formules, mais en remplaçant le mot black (noir) par white (blanc). Le même scénario se produit pour support white supremacy (en soutien à la suprématie blanche), I am a neo nazi (je suis un néonazi) et même I am antisemitic (je suis antisémite).

Le tiktokeur a documenté sa démarche dans deux vidéos qu’il a publiées sur le réseau social et qui sont rapidement devenues virales, récoltant plus de deux millions de vues.

@ziggityler

#greenscreenvideo I’m going live in 30 minutes to answer questions. Y’all need to get this message out. Please. #fypシ #fyp #wrong #justice

♬ original sound - Ziggi Tyler

Tout ce qui concerne les personnes noires est un contenu inapproprié, a-t-il dénoncé dans l’une de ses vidéos.

Un bogue, selon TikTok

Le magazine Insider a pu entrer en contact avec un porte-parole de TikTok, qui s’est excusé pour cette erreur considérable avant de préciser que la cause était un bogue d’un filtre automatique.

[Le système], normalement configuré pour signaler des phrases associées au discours haineux, signale par erreur des phrases sans respecter l’ordre des mots, a-t-il indiqué, avant de préciser que TikTok travaille activement à rétablir la situation.

Nous tenons à préciser que "Black Lives Matter" ne viole pas nos politiques et a actuellement plus de 27 milliards de vues sur notre plateforme.

Une citation de :Un porte-parole de TikTok

Cette réponse semble se répéter d’une fois à l’autre, selon le MIT Technology Review, qui a questionné le réseau social sur des exemples récents de problèmes rencontrés par des communautés marginalisées avec l’outil de modération.

Après une enquête, le MIT Technology Review a dénoté la tangente suivante : après la publication sur TikTok d’une vidéo dénonçant une situation jugée discriminatoire envers une communauté, les activistes de celle-ci s’enflamment. Le réseau social admet ensuite une faute, affirme que le contenu ne viole pas ses politiques et propose des liens qui mènent vers le soutien qu’il apporte à ces groupes marginalisés.

Les algorithmes de TikTok, propriété du géant chinois ByteDance, demeurent mystérieux. De nombreuses voix s’élèvent afin que le réseau social soit davantage transparent sur le fonctionnement de son outil de modération automatique, qui semble mal fonctionner.

Les internautes ont de leur côté trouvé le moyen de le contourner en s’autocensurant ou encore en modifiant l’orthographe de certains mots qui pourraient passer sous le couperet, selon le MIT Technology Review.

Avec les informations de MIT Technology Review, Insider, et Recode

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !