•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Comment Facebook a-t-il permis une diffusion en direct de la tuerie à Christchurch?

Une personne tient un cellulaire
La diffusion sur Facebook Live de la tuerie de Christchurch place l'entreprise américaine en difficulté, estiment des experts. Photo: Associated Press / Karly Domb Sadof
Romain Schué

Diffusée en direct sur Facebook Live durant de longues minutes, l'attaque de Christchurch, en Nouvelle-Zélande, a pu être visionnée par des milliers d'internautes, avant d'être reprise sur différentes plateformes numériques, comme YouTube, Instagram et Twitter. Comment Facebook a-t-il pu laisser cette vidéo en ligne tout au long de ce carnage?

« C’est un dérapage de leur outil de filtrage de contenu », explique Bruno Guglielminetti, spécialiste des médias numériques.

Durant près de 17 minutes, l’auteur de cette attaque a pu diffuser, en direct, ses actes perpétrés dans deux mosquées de Nouvelle-Zélande. Dans cette vidéo, filmée avec une petite caméra GoPro fixée sur le corps, on y voit le tireur, arme à la main, rentrer dans l’édifice et abattre des fidèles.

Normalement, assurent des experts interrogés par Radio-Canada, un algorithme de modération aurait dû être capable de stopper cette diffusion, en repérant ces images inappropriées à l’usage de ce réseau.

« Il y a habituellement une analyse des images et des mots qui décrivent la vidéo. Quand c'est clairement de la violence, c'est retiré. Là, on entend des larmes, des coups de feu. Tout était présent pour que le système mis en place par Facebook fonctionne afin d'arrêter la diffusion », reprend Bruno Guglielminetti.

« [Cet algorithme] est plus que fiable, juge Jean-Hugues Roy, professeur à l’École des médias de l’UQAM. Avec les avancées technologiques, en quelques secondes, la diffusion aurait dû être arrêtée. »

Ce n’était pas un clip de 30 secondes où il aurait pu y avoir une confusion avec un jeu vidéo. Ça démontre que Facebook ne contrôle pas complètement son environnement et que leur système a un problème.

Bruno Guglielminetti, expert en médias numériques

Rien ne remplace le jugement humain, certifie de son côté Olivier Gadeau, coordonnateur du Laboratoire sur la communication et le numérique. « Ce n’est pas un algorithme qui peut traiter l’éthique, la déontologie et la morale », soutient-il.

« Ça en dit long sur les limites de ces outils, fondés sur l’intelligence artificielle. Ils sont prometteurs, mais il reste encore beaucoup de travail », affirme quant à lui Pierre Trudel, professeur spécialisé en droit de l’information à l’Université de Montréal.

Des ambulanciers montent une civière dans une ambulance.Des ambulanciers portent secours à une victime de la fusillade de la mosquée Al Noor, Photo : Reuters / Stringer .

Une modération a posteriori décriée

Ce dernier se montre guère surpris par ce tragique événement. « On pourrait dire, de façon cynique, que ce n’était qu’une question de temps. Toute la technologie était là, avec des caméras connectées en direct, depuis plusieurs années », avance-t-il.

Le problème, poursuit-il, se situe sur les bases mêmes de l’existence de ces plateformes.

« Les réseaux sociaux ont été configurés pour échanger et partager des informations. Ils n’ont pas été conçus pour filtrer et supprimer rapidement les messages haineux.

La modération se fait a posteriori, avec le signalement des usagers. Il y a très peu d’analyse avant la mise en ligne. C'est un phénomène qui montre qu'il y a un risque et que Facebook doit en faire plus.

Pierre Trudel, professeur à l'Université de Montréal

« Facebook attend qu’il y ait des plaintes avant de réagir. Il ne juge pas le message. Des sous-traitants regardent ensuite les images », précise Olivier Gadeau.

Déjà des précédents

Ce n’est pas la première fois que Facebook est aux prises avec cet enjeu, même si aucun drame de cette ampleur n'avait encore été répertorié. À de nombreuses reprises, ces dernières années, des meurtres ont été filmés en direct. La famille d’un homme tué à Cleveland en 2017, dont les images avaient été partagées sur Facebook, a même poursuivi la firme californienne. La justice avait néanmoins statué que Facebook ne pouvait être tenu responsable de ce meurtre. L’entreprise avait cependant reconnu devoir s’améliorer pour éviter la diffusion de nouveaux drames.

Un risque de poursuites judiciaires

Bien que l’entreprise américaine ait annoncé avoir supprimé « rapidement » cette vidéo tout comme les comptes Facebook et Instagram du tireur, Radio-Canada a pu constater qu’il reste facile de retrouver les images de cette attaque sur YouTube.

Seul un simple avertissement disant que cette vidéo « peut être inappropriée pour certains utilisateurs » est présent. Cet extrait a beau être retiré quelques minutes plus tard, il réapparaît par la suite sous un autre titre.

Un écran de YoutubeAgrandir l’imageYouTube a des difficultés pour supprimer les vidéos montrant la tuerie de Christchurch. Photo : Capture d'écran

« C’est clair que Facebook et Google sont pris de court. Ça démontre à quel point il est complexe de vérifier tout ce qui est diffusé », souligne Bruno Guglielminetti.

Selon ce dernier, Facebook s’expose désormais à des poursuites judiciaires. « Ils ont une responsabilité et ils devront répondre à des questions. Comment pourront-ils expliquer à un juge que pendant 17 minutes, leur système n’a pas pu voir les signes d’un attentat », se questionne ce spécialiste.

« Facebook a une responsabilité qu’ils tardent à prendre. Ils ont eu un réveil, notamment après la présidentielle américaine avec une propagation de désinformations, mais c’est encore grossièrement insuffisant », estime Jean-Hugues Roy.

Facebook agit comme un média, mais sans avoir une réflexion pour savoir si une image doit être diffusée. Ils peuvent raconter ce qu'ils veulent, ils peuvent avoir des robots extraordinaires, il faut des humains.

Olivier Gadeau, coordonnateur du Laboratoire sur la communication et le numérique

Désormais, les gouvernements vont devoir hausser davantage la voix contre Facebook afin de pousser l'entreprise à s'ajuster, martèle Pierre Trudel, en évoquant « une pression mondiale ». « Il va falloir que les pressions augmentent des autorités publiques pour que Facebook se donne les moyens, pour qu'ils se dotent d'outils efficaces », mentionne-t-il, tout en rappelant les récentes menaces émises par l'Union européenne.

Au printemps dernier, Mark Zuckerberg, le patron de Facebook, avait déjà dû s’expliquer devant les élus américains au printemps passé. Il aura à nouveau « des comptes à rendre », estime Bruno Guglielminetti.

Technologies et médias

Société