•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Un homme noir arrêté à tort à cause de la technologie de reconnaissance faciale

Des études ont montré que les algorithmes de reconnaissance faciale manquaient de fiabilité dans l'identification des minorités visibles.

Un homme regarde vers le ciel, les mains dans les poches.

Robert Williams a injustement passé 30 heures en détention à Détroit, en janvier dernier, en raison d'une erreur algorithmique.

Photo : Capture d'écran YouTube / ACLU

Agence France-Presse

Un Afro-Américain a été arrêté à tort à cause de l'usage, par la police, de la technologie de reconnaissance faciale, la première erreur de ce type documentée aux États-Unis, selon une plainte déposée mercredi à Détroit.

Au début de janvier, Robert Williams a passé 30 heures en détention parce qu'un logiciel avait jugé identiques la photo de son permis de conduire et l'image d'un voleur de montres capturée par des caméras de surveillance, selon cette plainte.

Il avait été arrêté et menotté devant chez lui, en présence de sa femme et de ses deux filles âgées de 2 et 5 ans. Comment expliquer à deux petites filles qu'un ordinateur s'est trompé, mais que la police l'a quand même écouté?, écrit-il dans une tribune publiée par le Washington Post.

Selon son récit, après une nuit en cellule, des agents lui ont demandé s'il était déjà allé dans une bijouterie de Détroit, une grande ville industrielle du nord, et lui ont montré deux photos floues d'un homme noir.

« J'ai pris le papier et je l'ai mis près de mon visage en disant : "J'espère que vous ne pensez pas que tous les hommes noirs se ressemblent." Les policiers se sont regardés, et l'un d'eux a dit : "L'ordinateur a dû se tromper" », raconte-t-il.

Utilisée depuis plusieurs années par différents services de police aux États-Unis sans cadre légal fédéral, la technologie de reconnaissance faciale est accusée de manquer de fiabilité dans l'identification des minorités, notamment noires ou asiatiques.

Selon une étude du MIT, le taux d'erreur est de 35 % pour les femmes noires. Si ce biais racial lié à des bases de données comprenant plus de modèles blancs que noirs est connu, aucun cas précis d'erreur n'avait jusque-là été documenté.

Depuis la mort de George Floyd, un quadragénaire noir asphyxié par un policier blanc à Minneapolis le 28 mai, une partie du peuple américain a réclamé, lors de manifestations dans tout le pays, des réformes de la police, et les protestataires plaident notamment pour l'abandon de cette technologie.

Plusieurs entreprises, soucieuses de répondre à cette mobilisation, comme Amazon, IBM ou Microsoft, ont suspendu la vente de ces logiciels d'identification à la police, jusqu'à ce que des règles claires soient fixées.

Mercredi, le conseil municipal de Boston, sur la côte atlantique, a voté l'interdiction pour la police municipale d'utiliser la reconnaissance faciale, devenant la deuxième plus grosse ville au monde, après San Francisco, dans l'ouest, à prendre cette décision.

Dans la plainte administrative déposée à Détroit, la puissante association de défense des droits civiques American Civil Liberties Union (ACLU) demande à la Ville de renoncer à son tour à cette technologie, mais aussi que le casier judiciaire de Robert Williams soit purgé de toute référence à cet incident.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Intelligence artificielle

Techno