Facebook renforce sa lutte contre l'exploitation sexuelle infantile

Le groupe Facebook a fait savoir mardi qu'il comptait mettre en place de nouveaux mécanismes pour lutter contre l'exploitation sexuelle infantile sur ses réseaux sociaux.
Photo : AFP/Getty Images / Josh Edelson
Le groupe Facebook a annoncé mardi travailler sur de nouvelles façons de combattre le partage de photos et de vidéos relevant de la pédophilie ou de l'exploitation d'enfants.
Nous testons deux nouveaux outils – un qui s'attaque aux recherches potentiellement mal intentionnées pour ce type de contenu, et un autre qui cible le partage de ces contenus sans mauvaises intentions
, a expliqué mardi Antigone Davis, directrice de la sécurité pour Facebook, dans un communiqué.
Son équipe a conçu une notification qui apparaît en cas de recherche de termes liés à l'exploitation infantile sur toutes les applications du groupe californien.
Une fenêtre s'affiche et rappelle que les abus sexuels sur les personnes mineures sont illégaux et que de regarder ce type de contenu comporte des conséquences. Au bas du message, un bouton pour demander de l'aide
renvoie l'internaute vers des organisations spécialisées dans le traitement de ces comportements.
Le deuxième outil développé par Facebook consiste en une alerte à l'intention des personnes qui ont partagé des photos ou des vidéos montrant des enfants exploités. Elle vise à rappeler que ces contenus sont interdits par Facebook et les informe des dommages et des conséquences légales qu’ils peuvent causer.
Des mesures déjà en place
Facebook a déjà tout un système en place pour lutter contre la pédophilie sur ses plateformes. Ses algorithmes et mécanismes de modération détectent et retirent les images avant de les transmettre au National Center for Missing and Exploited Children (NCMEC), l'ONG spécialisée dans le travail avec les familles, les autorités et les entreprises en cas d'enlèvement ou d'exploitation sexuelle. Les comptes qui font la promotion de ces contenus sont supprimés.
Le géant californien, qui a analysé les images qui ont été acheminées au NCMEC entre octobre et novembre 2020, indique que 90 % de ces contenus sont les mêmes ou visuellement similaires à des contenus déjà repérés et signalés auparavant
.
Et les images de six vidéos constituaient plus de la moitié des contenus d'exploitation infantile que nous avons relevés pendant cette période.
Facebook s’est aussi penchée sur les intentions des internautes responsables de ce type de partages. Nous estimons que plus de 75 % n’avaient pas de mauvaises intentions. Ces personnes semblaient avoir d'autres raisons, comme l'indignation ou de l'humour déplacé
, ajoute la directrice.