•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

L'ONU sonne l'alarme sur les biais raciaux de certains algorithmes

Une caméra de surveillance et des lignes représentant le visage d'une personne.

Un rapport de l'ONU exige plus de transparence de la part des fabricants de technologie de reconnaissance faciale.

Photo : getty images/istockphoto / Scharfsinn86

Agence France-Presse

Les pays doivent en faire plus pour combattre le profilage racial, d'autant plus que l'intelligence artificielle utilisée pour la reconnaissance faciale ou pour les méthodes de prévention policière pourrait renforcer cette pratique. C’est la conclusion à laquelle en vient le comité de l'ONU pour l'élimination de la discrimination raciale dans un rapport publié jeudi.

Il y a un grand danger à ce que [l'intelligence artificielle] reproduise, renforce et aggrave les biais raciaux, ou encore qu’elle conduise à des pratiques discriminatoires, avance Verene Shepherd, experte des droits de la personne, dans une entrevue accordée à l'AFP.

Cette Jamaïcaine, l’une des 18 spécialistes du Comité, en a beaucoup à dire sur la manière dont les autorités devraient combattre le profilage racial pratiqué par les forces de l'ordre.

Des données discriminatoires

Le regroupement de spécialistes s'inquiète tout particulièrement des algorithmes utilisés par la police comme des outils prédictifs ou d'évaluation du risque.

Ces systèmes d'aide au maintien de l'ordre sont censés contribuer à la prévention de la criminalité. Or, ils renforceraient plutôt les préjugés envers certaines communautés, selon l’ONU.

Dans son rapport, le Comité cite l’exemple des données historiques sur les arrestations dans un quartier qui peuvent refléter des pratiques policières racistes.

Ces données augmentent le risque d'une présence policière accrue dans le même quartier, ce qui peut mener à plus d'arrestations et créer ainsi un cercle vicieux, met-elle en garde.

Une reconnaissance faciale déficiente

Le Comité montre aussi du doigt l'usage de plus en plus répandu de la reconnaissance faciale, qui soulève des préoccupations concernant de nombreux droits de la personne, notamment le droit au respect de la vie privée, la liberté de réunion et d'association pacifique, la liberté d'expression et la liberté de circulation.

Des études ont aussi montré que ces technologies ont du mal à reconnaître les visages à la peau foncée. Un biais illustré par l'arrestation à Detroit cette année d'un Afro-Américain, Robert Williams, sur la base des conclusions d'un algorithme mal ficelé, qui l'a identifié comme un suspect dans un vol.

Nous avons eu des plaintes pour ce genre de mauvaise identification à cause de l'origine des technologies, de qui les développe et des échantillons utilisés par ces systèmes, souligne Mme Shepherd, avant d'ajouter que c'est une réelle inquiétude.

Plus de transparence

Le Comité demande notamment aux pays de réglementer les entreprises qui travaillent avec ces technologies pour s'assurer qu’elles respectent les lois internationales sur les droits de la personne.

Les spécialistes insistent également sur le besoin de transparence dans leur conception et leur application envers le grand public.

Mme Shepherd mentionne toutefois que du travail reste à faire au-delà des technologies pour vaincre le profilage racial :

L'intensification et l'internationalisation du mouvement Black Lives Matter et d'autres campagnes dénonçant les discriminations à l'encontre de certains groupes vulnérables vont aider [à souligner] l'importance de ces recommandations.

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !