•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Fausses informations : Facebook renforce la modération dans ses groupes

La plateforme avait déjà donné plus d'outils aux responsables de groupes pour mieux modérer les contenus.

Une loupe devant un logo Facebook

À la veille des élections de mi-mandat aux États-Unis, Facebook améliore la modération pour combattre la désinformation dans les groupes.

Photo : Reuters / Dado Ruvic

Radio-Canada

Meta a ajouté jeudi un outil qui permet aux personnes qui administrent des groupes Facebook de filtrer automatiquement les contenus reconnus comme de fausses informations. Ce changement intervient à l'approche des élections de mi-mandat américaines, propices aux vagues de désinformation sur le réseau social.

Pour s'assurer que les contenus soient plus fiables [...], les personnes administratrices d’un groupe peuvent automatiquement mettre en attente les messages contenant des informations établies comme fausses par la vérification par les tiers, afin de pouvoir les examiner avant de les supprimer, a expliqué Tom Alison, le directeur de l'application Facebook, dans un communiqué.

La plateforme avait déjà donné plus d'outils aux responsables de groupes pour mieux modérer les contenus. Toutefois, elle reste accusée par de nombreuses organisations non gouvernementales et par les autorités de ne pas lutter suffisamment contre la désinformation.

Des groupes populaires

Plus de 1,8 milliard de personnes utilisent les groupes Facebook chaque mois. Parents d'élèves, fans d'artistes et personnes vivant dans le même voisinage s'y retrouvent pour échanger des nouvelles et organiser des activités, mais aussi pour discuter de politique.

Meta s'est vu reprocher de ne pas suffisamment surveiller des groupes qui ont contribué à la radicalisation politique de certaines personnes, notamment lors des élections américaines de 2020.

L'AFP participe dans une trentaine de pays à la vérification des faits par des tiers, un programme développé par Facebook en 2016. Une soixantaine de médias dans le monde, généralistes ou spécialisés, font également partie de ce programme.

Si une information est considérée comme fausse ou trompeuse par l'un de ces médias, les utilisateurs et utilisatrices de Facebook sont moins susceptibles de la voir apparaître dans leur fil d'actualité. Et si des personnes la voient ou tentent de la partager, Facebook leur suggère la lecture de l'article de vérification.

Avec les informations de Agence France-Presse

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

En cours de chargement...