•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Google n’utilisera plus le genre dans l’analyse des photos

Un visage composé de plusieurs photos pour illustrer différents attributs de genre et la diversité.

Google considère qu'il est impossible de déduire le genre d’une personne en se basant uniquement sur son apparence.

Photo : Radio-Canada / Infographie : Simon Blais

Radio-Canada

Les étiquettes genrées, comme « homme » et « femme », ne seront plus utilisées par l’algorithme de reconnaissance faciale de l’entreprise afin d’éviter de possibles erreurs.

Dans un courriel envoyé jeudi matin et dont a obtenu copie Business Insider, Google annonce qu’elle adoptera des étiquettes non genrées telles que « personne ».

Le géant du numérique affirme avoir pris cette décision parce qu’il était impossible de déduire le genre d’une personne en s’appuyant uniquement sur son apparence. L’entreprise mentionne que cette nouvelle pratique est conforme à ses règles éthiques sur l’intelligence artificielle (Nouvelle fenêtre), qui affirment que le fait de donner un genre aux personnes sur les photos peut exacerber certains biais cognitifs.

Reconnaître la non binarité du genre

La transmission des biais cognitifs des humains aux algorithmes est un enjeu largement discuté depuis quelques années. Un exemple récent est la moins bonne reconnaissance faciale des visages des personnes de couleur.

Frederike Kaltheuner, responsable des politiques technologiques pour Mozilla et spécialiste des biais cognitifs transmis à l’intelligence artificielle, voit d’un très bon œil la décision de Google. Classer une personne comme homme ou femme s’appuie sur le postulat qu’il n’y aurait que deux genres. Toute personne qui ne correspond pas à l’une de ces deux catégories sera donc mal classée et mégenrée, explique-t-elle.

Google a par ailleurs invité les programmeurs et programmeuses à discuter de cette décision sur ses forums de discussion. La seule personne à avoir écrit un commentaire jeudi midi s’est plainte que ce changement provenait d’un souci d’être politiquement correct, et que les entreprises risquaient de faire appel à d’autres services de reconnaissance faciale.

Avec les informations de Business Insider

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Intelligence artificielle

Techno