•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Quand les algorithmes influencent les peines de prison

Un marteau de bois et le plateau d'une balance.
L'utilisation des algorithmes pour prédire les crimes et les risques de récidive est vivement critiquée par les organismes de défense des libertés civiles. Photo: iStock

Des algorithmes s'invitent de plus en plus dans les procès aux États-Unis, où ils aident à déterminer le risque de récidive d'un accusé... et à décider s'il devrait être emprisonné ou relâché. Des prédictions trop souvent faussées par des données historiques non pertinentes, rapporte le magazine MIT Technology Review.

Devant composer avec l’impératif de réduire le nombre de prisonniers sans augmenter le taux de criminalité, le système judiciaire américain se tourne de plus en plus vers des outils technologiques pour tenter d’améliorer son efficacité.

Après les algorithmes prédicteurs de crimes pour les policiers, voilà maintenant que l’intelligence artificielle prétend pouvoir accorder un pointage aux accusés en cour. Ce pointage, obtenu en colligeant des données sur le profil de la personne et des données historiques, permettrait de connaître le risque que poserait l’accusé s’il était remis en liberté.

Il revient ensuite au juge de tenir compte ou non de ce pointage dans ses décisions : choix des services de redressement, emprisonnement ou non pendant le procès, sévérité de la peine, etc.

Les personnes en faveur de l’utilisation de l’intelligence artificielle par les tribunaux estiment que les algorithmes pourraient réduire, voire éliminer la partialité des juges en basant les décisions uniquement sur des données.

Des algorithmes biaisés, dénoncent des opposants

Mais c’est justement la question de la partialité qui dérange les opposants à cette technologie. Ceux-ci croient plutôt que ces algorithmes sont intrinsèquement biaisés, puisqu’ils se basent sur des données historiques pour effectuer certaines prédictions.

Les outils de ce genre tentent de trouver des corrélations dans de grandes quantités de données. Comme les communautés à faible revenu et les minorités ont historiquement été davantage ciblées par les forces de l’ordre, les outils d’intelligence artificielle ont plus de chances de conclure qu’une personne issue de ces communautés pose un risque pour la société, explique le MIT Technology Review.

Or, la corrélation entre deux catégories de données ne signifie pas qu’il y a un lien de cause à effet. En basant leurs conclusions sur des données biaisées, les algorithmes auraient donc tendance à amplifier ces biais, alimentant un cercle vicieux qui pénaliserait les communautés judiciarisées.

Malgré l’appel, en juillet (Nouvelle fenêtre), de l’American Civil Liberties Union et de la National Association for the Advancement of Colored People, des organismes américains de défense des libertés civiles, à tourner le dos à cette technologie, de plus en plus d’États commencent à s’en servir, espérant réduire le taux d’occupation de leurs prisons.

Avec les informations de MIT Technology Review

Intelligence artificielle

Techno