•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Facebook travaillera avec la police pour entraîner ses algorithmes d’IA

Des images d'une caméra corporelle d'un policier à Las Vegas.

Des images de caméras corporelles seront utilisées par Facebook pour entraîner ses algorithmes d'intelligence artificielle. Celle-ci provient d'un policier de Las Vegas.

Photo : Reuters / Handout .

Agence France-Presse

Facebook a annoncé mardi qu’elle fera appel aux forces de l'ordre du Royaume-Uni et des États-Unis pour entraîner ses outils d'intelligence artificielle (IA) à empêcher la diffusion en direct d'attaques menées par des extrémistes.

Les images filmées par les caméras corporelles portées par des policiers de Londres lors de leurs entraînements au tir viendront alimenter et enrichir la banque d'images dont se sert Facebook pour reconnaître des vidéos de personnes commettant des actes de violence par arme à feu. La collaboration entre les deux parties devrait débuter en octobre. 

Nous sommes en discussion active avec le gouvernement et les forces de l’ordre des États-Unis et avons hâte de communiquer plus d’information à ce sujet dans un avenir rapproché, a expliqué le réseau social dans un billet de blogue. 

Les outils d'intelligence artificielle ont besoin d’énormes quantités de données — ici, des images de fusillades — pour apprendre à les distinguer de façon fiable.

La principale difficulté dans ce cas-ci vient du fait que l’IA doit pouvoir faire la différence entre une attaque dans la vraie vie et une scène de film ou de jeu vidéo.

Facebook veut s’attaquer à l’extrémisme

Cette initiative s'inscrit dans le cadre plus large des mesures prises par Facebook pour nettoyer les contenus haineux et extrémistes publiés sur sa plateforme. Le site web a entre autres changé sa définition du terrorisme pour qu’elle aille au-delà des actes de violence.

Facebook a été vertement critiqué pour avoir mis 17 minutes avant d’arrêter la transmission en direct de l’attentat terroriste du 15 mars à Christchurch, en Nouvelle-Zélande, lors duquel un suprémaciste blanc a tué 51 fidèles d’une mosquée. 

Depuis, l'entreprise multiplie les initiatives : restrictions pour l'accès à la fonctionnalité Facebook Live, rencontres avec des responsables politiques et une alliance avec d'autres réseaux sociaux pour freiner le détournement de technologies permettant de diffuser du contenu terroriste.

Après avoir consacré beaucoup de moyens à la mise en place de mesures pour éliminer l'utilisation de son réseau par des organisations comme Al-Qaïda ou le groupe armé État islamique, Facebook a récemment mis l'accent sur le suprémacisme blanc, dont les tenants sont à l'origine de nombreuses tueries perpétrées ces dernières années aux États-Unis.

D’autres incidents violents ont été diffusés sur la plateforme ces derniers mois. En avril, un individu a abattu un homme de 74 ans dans une rue de Cleveland, puis a ensuite diffusé la vidéo de son crime sur Facebook.

Intelligence artificielle

Techno