Les technologies d'intelligence artificielle sont de plus en plus utilisées par les corps de police, tels que les logiciels de reconnaissance faciale ou de localisation de téléphones cellulaires. Céline Castets-Renard, professeure à l'Université d'Ottawa et titulaire de la Chaire de recherche sur l'intelligence artificielle responsable à l'échelle mondiale, explique comment des biais racistes s'intègrent aux algorithmes de ces technologies et influencent les utilisateurs à agir de façon discriminatoire.
Début du contenu
Les biais racistes de l'intelligence artificielle
