•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Le système de reconnaissance faciale d’Amazon confond des élus avec des criminels

Une caméra de surveillance en ville.

Amazon a vendu un programme de reconnaissance faciale à plusieurs services de police.

Photo : getty images/istockphoto / hallojulie

Radio-Canada

Un système de reconnaissance faciale d'Amazon a confondu 28 élus américains avec des criminels, dans le contexte d'un test mené par l'Union américaine pour les libertés civiles (ACLU). Cette expérience visait à démontrer les lacunes de tels systèmes, alors que des services de police commencent à s'en servir.

L’ACLU a demandé au système Rekognition, d’Amazon, de comparer les portraits des 535 élus du Congrès américain avec les 25 000 portraits de criminels contenus dans une banque de données. Malgré le fait qu’aucun élu ne faisait partie de ces 25 000 portraits, le système d’Amazon a cru reconnaître 28 d’entre eux.

Le représentant démocrate Jimmy Gomez, qui fait partie de ceux faussement identifiés par Rekognition, s’est dit choqué par les résultats. « Je suis scandalisé et inquiet des conséquences que cet outil aura sur les communautés de couleur lorsqu’on le mettra entre les mains des forces de l’ordre! Jeff Bezos [PDG d’Amazon, NDLR] : nous devons nous parler aussitôt que possible », a écrit M. Gomez sur Twitter.

Un système controversé

Rekognition est au cœur d’une controverse depuis que la police d’Orlando a commencé à s’en servir pour identifier des individus recherchés dans des lieux publics à l’aide de caméras de surveillance.

L’ACLU milite pour l’instauration d’un moratoire sur l’usage de la reconnaissance faciale par les services de police en attendant qu’un débat public ait eu lieu et que des lois balisent l’utilisation de ces systèmes.

« Une identification – qu’elle soit exacte ou non – pourrait coûter la liberté ou même la vie à des gens, indique l’ACLU (Nouvelle fenêtre) sur son site web. Le Congrès doit prendre ces menaces au sérieux, appuyer sur les freins, et décréter un moratoire sur l’usage de la reconnaissance faciale par les forces de l’ordre. »

Un mauvais calibrage, plaide Amazon

Un porte-parole d’Amazon a expliqué à The Verge que les faux positifs de l’expérience menée par l’ACLU sont dus au mauvais calibrage de l’algorithme par les testeurs. Par défaut, Rekognition indique un positif lorsqu’il atteint un seuil de certitude de 80 %. Or, Amazon recommande que ce seuil soit élevé à 95 % lorsque l’algorithme est utilisé dans des situations où un résultat fautif pourrait avoir des conséquences importantes sur une personne.

« Bien que 80 % de certitude soit un seuil acceptable pour des photos de hot-dogs, de chaises, d’animaux ou d’autres utilisations sur des médias sociaux, cela ne serait pas approprié pour reconnaître des individus avec un niveau de confiance raisonnable », souligne le porte-parole.

Rien n’oblige toutefois les services policiers à suivre la recommandation d’Amazon.

Avec les informations de The Verge, et Mashable

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Intelligence artificielle

Techno