•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Facebook s'explique sur la diffusion en direct de l'attentat en Nouvelle-Zélande

Une conférence de presse de la première ministre néo-zélandaise Jacinda Ardern, à Christchurch, le 20 mars 2019, diffusée sur Facebook Live par l'entremise d'un téléphone intelligent.
Une conférence de presse de la première ministre néo-zélandaise Jacinda Ardern, à Christchurch, le 20 mars 2019, diffusée sur Facebook Live. Photo: Getty Images / Kai Schwoerer
Radio-Canada

Le réseau social Facebook a admis, mercredi, que le délai avant que les images de la fusillade de Christchurch, diffusées en direct par le tueur sur Facebook Live, ne soient retirées était dû aux limites de ses procédures de signalement des vidéos et de ses algorithmes.

La vidéo a été signalée pour la première fois sur le réseau social 12 minutes après la fin de sa diffusion via Facebook Live. Ayant été signalée pour des raisons autres que celles d’un suicide, dont la modération est priorisée, elle a été traitée selon une procédure différente.

Dans un billet publié sur le blogue de Facebook, le vice-président Guy Rosen a indiqué que l’entreprise allait revoir ses procédures de signalement des vidéos problématiques afin de pouvoir les examiner plus rapidement.

L'imparfaite intelligence artificielle

Guy Rosen a également expliqué les défis posés par la modération automatique des vidéos grâce à l’intelligence artificielle (IA).

Apprendre aux algorithmes à identifier des vidéos, comme celle de la tuerie survenue vendredi dernier à Christchurch, en Nouvelle-Zélande, est compliqué, selon lui. Cela exige d’alimenter les algorithmes avec « des milliers d’exemples de contenu [de ce type], ce qui est difficile, car ces évènements sont heureusement rares », a-t-il précisé.

L’autre difficulté pour un algorithme consiste à distinguer une vidéo, comme celle filmée par le tueur, des contenus similaires, mais inoffensifs. « Par exemple, si des milliers de vidéos de parties de jeux vidéo [de tir] diffusées en direct sont repérées par nos systèmes, nos modérateurs pourraient manquer de vraies vidéos [nécessitant de contacter les secours] », a ajouté Guy Rosen.

« L’IA est un élément incroyablement important dans notre combat contre le contenu terroriste sur nos plateformes, et si son efficacité continue de s’améliorer, elle ne sera jamais parfaite », a-t-il souligné.

Réseaux sociaux

Techno