•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Les entreprises échouent à contrôler la pornographie juvénile sur Internet

Une jeune fille assise seule dans le noir.

Le Centre canadien de protection de l’enfance estime que le rôle des entreprises dans la suppression d'images pédopornographiques est trop prépondérant et pas assez efficace.

Photo : getty images/istockphoto / Giuda90

Radio-Canada

Un rapport du Centre canadien de protection de l’enfance (CCPE) publié mercredi propose de ne plus laisser les entreprises technologiques décider seules de la suppression des images de pornographie juvénile en ligne. Pour l’organisme établi à Winnipeg, l’action de ces sociétés manque globalement d’efficacité.

Dans son étude, le CCPE dit avoir envoyé à 400 entreprises une note expliquant comment supprimer en ligne des images ou des vidéos d’abus sexuels sur mineurs.

Selon le CCPE, les sociétés qui réagissent le plus rapidement bannissent ces contenus en un jour ou moins. Les plus mauvais élèves attendent plus de deux semaines avant d’agir. Certains retirent même des images choquantes, mais qui ne sont pas considérées comme illégales, tandis que d’autres se bornent aux obligations légales.

L’objectif du CCPE est de supprimer toute image de pornographie juvénile, mais aussi les images montrant des enfants avant ou après qu'ils ont subi des violences sexuelles, même s’il n’y a pas de nudité apparente.

La directrice générale du centre, Lianna McDonald, estime que c'est indispensable pour préserver les intérêts des enfants et leur droit à la dignité.

Les droits des enfants victimes seront continuellement bafoués tant que des images où on les voit victimes d'abus sexuels seront disponibles sur Internet.

Lianna McDonald, directrice générale du CCPE

Le rapport affirme notamment que certaines grandes entreprises ont refusé de supprimer des images montrant des abus sexuels sur des enfants dont l’âge était estimé entre 10 et 12 ans, parce que les corps de ces enfants présentaient des signes de développement précoce. Les enfants, indique le rapport, ne se développent pas tous de la même façon et à la même vitesse, mais dans de nombreux cas, il était évident qu'il s'agissait toujours d’enfants.

Les entreprises spécialisées dans les technologies ont un rôle majeur et les décisions de supprimer de telles images sont soumises à leur seule autorité. Cela doit changer.

Extrait du rapport « Nos manquements envers les enfants : Changer le paradigme », du CCPE

Les rédacteurs du rapport se disent profondément inquiets du niveau d’engagement variable des entreprises du secteur technologique au sujet de la protection des enfants. Ils soulignent aussi le manque de transparence et de responsabilité dans la méthode de suppression des images.

Pour remédier à ce problème, le CCPE estime qu’il est impératif de clarifier les rôles de l’industrie numérique et des gouvernements. Il suggère ainsi de mettre sur pied une seule et même stratégie de suppression des contenus illicites, qui sera utilisée par tous les acteurs engagés dans la lutte contre la pédopornographie.

Le secteur privé inapte à gérer le problème?

Le CCPE note aussi que, à l’heure actuelle, la suppression des images pédopornographiques est majoritairement gérée par les entreprises spécialisées dans les technologies. Selon Michael Salter, qui est professeur associé en criminologie à l’Université de New South Wales, à Sydney, en Australie, le travail avec ces compagnies est un vrai défi. Il ajoute que les réseaux sociaux sont des plateformes où circulent un grand nombre d’images qui n'ont jamais été ni régulées ni contrôlées.

La structure d’Internet est bâtie pour autoriser la circulation des contenus. Elle n’a pas été bâtie pour contrôler, éviter [les contenus pédopornographiques] ou les supprimer.

Michael Salter, professeur associé en criminologie à l’Université de New South Wales

Hany Farid, qui est professeur spécialisé dans l'analyse d'images numériques à l’Université de Californie, à Berkeley, accuse l’industrie du monde numérique de ne pas vouloir faire partie du système de bannissement de ces contenus horribles.

En 2008, ce professeur a travaillé avec Microsoft pour élaborer un outil d’extraction de sites web appelé Photo DNA. Cet instrument numérique se faufile dans le web caché et le web ouvert pour repérer des images. Il a ensuite été donné au Centre national pour les enfants disparus et exploités (NCMEC), établi aux États-Unis, dans le but de trouver et de retirer les images de pornographie juvénile.

Selon Hany Farid, le NCMEC a reçu, l’année dernière, 18,5 millions de signalements pour des contenus pédopornographiques.

Cela représente 2000 signalements par heure. Chaque heure. Chaque jour. Chaque mois d’une année.

Hany Farid, professeur spécialisé dans l'analyse d'images numériques à l’Université de Californie

Il ajoute que 80 % de ces contenus concernent des enfants prépubères de moins de 12 ans. Un cas extrême d’un nourrisson de 2 mois a également été signalé.

Ces contenus sont diffusés en ligne et alimentent la création d’encore plus de contenus, ajoute le professeur. Les enfants victimes à qui on parle disent que, chaque fois que ces images sont vues, ils sont violés une nouvelle fois.

Le CCPE a également utilisé le logiciel Photo DNA pour mettre au point un outil en ligne appelé Projet Arachnid. Depuis sa création, cet outil a analysé 95 milliards de contenus et repéré plus de 13,5 millions d’images d’abus sexuels sur mineurs. Par la suite, près de 5 millions de signalements ont été envoyés à des fournisseurs de contenus dans le monde entier.

Avec les informations de Caroline Barghout et Joanne Levasseur

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Manitoba

Cybercriminalité