•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Reconnaissance faciale d'Amazon : Yoshua Bengio à la rescousse d’une chercheuse américaine

Joy Buolamwini est chercheuse au MIT Media Lab.

Joy Buolamwini est chercheuse au MIT Media Lab.

Photo : The Associated Press / Steven Senne

Radio-Canada

Un groupe de chercheurs en intelligence artificielle, dont fait partie le Montréalais Yoshua Bengio, a lancé mercredi une défense énergique du travail d'une chercheuse américaine en reconnaissance faciale tout en demandant à Amazon de cesser de vendre aux services policiers son logiciel Rekognition.

La technologie de reconnaissance faciale s'invitait déjà dans la vie de tous les jours – des photos sur Facebook aux balayages policiers de photos d'identité – lorsque Joy Buolamwini a remarqué un grave problème : certains logiciels ne pouvaient pas détecter les visages à la peau foncée comme le sien.

Cette découverte a incité la chercheuse du Massachusetts Institute of Technology (MIT) à tester des logiciels comme celui d’Amazon, Rekognition, géré par Amazon Web Services, division de l’infonuagique de l’entreprise. L’an dernier, les premiers clients du logiciel ont été dévoilés : le service de police d'Orlando et le bureau du shérif du comté de Washington, en Oregon.

Le travail de Mme Buolamwini a notamment révélé des taux d'erreur beaucoup plus élevés dans l’identification du sexe des femmes à la peau plus foncée que pour celui des hommes à la peau plus claire.

Elle a donc invité des entreprises comme Microsoft et IBM à améliorer leurs systèmes, ce qu’elles ont fait.

Amazon, toutefois, n'a pas offert la même collaboration et a publiquement attaqué les méthodes de recherche de Mme Buolamwini, vertement critiquée par deux hauts responsables de l'entreprise.

Aux États-Unis, le travail de la chercheuse a aussi attiré l'attention des dirigeants politiques. Autant dans les législatures des différents États qu’au Congrès, certains cherchent maintenant à limiter l'utilisation des ordinateurs pour analyser les visages humains.

Un choix doit être fait. En ce moment, ces technologies sont déployées à grande échelle sans surveillance, souvent secrètement, de sorte que quand nous nous réveillerons, il sera presque trop tard.

Joy Buolamwini, chercheuse au MIT

Des chercheurs montréalais à sa défense

En plus du patron de l'Institut québécois d'intelligence artificielle (Mila), Yoshua Bengio, d’autres sommités montréalaises de l’intelligence artificielle appuient Joy Buolamwini dans sa démarche.

Les chercheurs de Mila Akilesh Badrinaaraayanan, Alexia Jolicoeur-Martineau, Vincent Michalski, Ioannis Mitliagkas et Shagun Sodhani sont notamment du lot.

Ils sont tous signataires d’une lettre dans laquelle ils demandent à Amazon de cesser de vendre sa technologie de reconnaissance faciale aux forces de l’ordre, en raison de son biais contre les femmes et les personnes de couleur.

Rendue publique mercredi, la lettre reflète les préoccupations croissantes du milieu universitaire et de l'industrie de la technologie, qui s’inquiètent que les préjugés dans la technologie de reconnaissance faciale constituent un problème systémique.

Des chercheurs et des entreprises soutiennent même que la technologie ne peut être contrôlée adéquatement sans une réglementation gouvernementale.

Amazon vitriolique

C'est la méthode de Joy Boulamwini pour tester les logiciels de reconnaissance faciale d’entreprises de renom qui semble avoir réellement touché une corde sensible.

La chercheuse commence par soumettre ces logiciels à une échelle de teinte de peau utilisée par les dermatologues. Elle nomme ensuite publiquement les entreprises dont le logiciel présente des préjugés raciaux et sexistes.

Mme Buolamwini, qui a également fondé une coalition d'universitaires, d'activistes et d'autres personnes appelée Algorithmic Justice League, brouille les lignes : elle est à la fois chercheuse et militante.

Une étude qu’elle a dirigée et publiée il y a un peu plus d'un an a par exemple révélé des disparités dans la façon dont les systèmes d'analyse faciale construits par IBM, Microsoft et la société chinoise Face Plus Plus classaient les personnes par sexe. Les femmes à la peau plus foncée constituaient le groupe le plus mal classé, avec des taux d'erreur pouvant atteindre 34,7 %. En revanche, le taux d'erreur maximal pour les hommes à la peau plus claire était inférieur à 1 %.

L'étude demandait qu'une « attention urgente » soit accordée à ce biais.

« J'ai répondu à peu près tout de suite », explique Ruchir Puri, scientifique en chef d'IBM Research, décrivant un courriel qu'il a reçu de Mme Buolamwini l'an dernier.

Depuis, dit-il, « cette relation a été très fructueuse » et a permis à IBM de dévoiler cette année une nouvelle base de données d'un million d'images pour mieux analyser la diversité des visages humains.

Microsoft, qui avait les taux d'erreur les plus faibles, a refusé de faire des commentaires. Megvii, propriétaire de Face Plus Plus, n’a jamais répondu à nos messages.

Quelques mois après sa première étude, lorsque Mme Buolamwini a travaillé sur un test de suivi avec la chercheuse Inioluwa Deborah Raji, de l'Université de Toronto, les trois entreprises ont montré des améliorations importantes.

Mais cette fois, elles ont aussi inclus Amazon et son logiciel Rekognition dans l’étude. Les résultats, publiés fin janvier, ont montré que le logiciel avait du mal à identifier les femmes au teint plus foncé.

« Nous avons été surpris de voir qu'Amazon se trouvait là où se trouvaient ses concurrents il y a un an », a déclaré Mme Buolamwini.

Amazon rejette ce qu'elle appelle les « affirmations erronées » de la chercheuse. Selon l’entreprise, l'étude confond l'analyse faciale avec la reconnaissance faciale et mesure incorrectement la première avec les techniques d'évaluation de la seconde.

« Je ne savais pas que leur réaction serait aussi hostile », conclut Mme Buolamwini.

Avec les informations de Associated Press, et New York Times

Intelligence artificielle

Techno