•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Quand les biais et préjugés de l’être humain se transmettent aux algorithmes

Moteur de recherche

Avec Matthieu Dugal

Du lundi au jeudi de 19 h à 20 h
(en rediffusion le samedi à 1 h et 2 h)

Quand les biais et préjugés de l’être humain se transmettent aux algorithmes

Audio fil du jeudi 26 septembre 2019
L'ombre d'une femme se cache derrière des données.

Le sous-représentativité des femmes dans le monde numérique a des répercussions sur la conception même des certains outils.

Photo : iStock

« Un algorithme ou un robot ne peut pas être macho puisqu'il n'a pas de personnalité juridique ou morale. C'est nous qui sommes machos. C'est ça qu'il faut dire. [...] Ce sont nos propres préjugés, nos propres biais cognitifs qui se transmettent à l'algorithme, à l'outil », affirme Aurélie Jean, scientifique numéricienne et entrepreneure. Celle qui a été nommée femme d'influence 2019 par le magazine Forbes pense qu'il est primordial d'avoir une diversité de collaborateurs et collaboratrices au sein des équipes de conception de produits numériques pour contrer ce phénomène.

Aurélie Jean, qui a entre autres travaillé neuf ans aux États-Unis dans des établissements comme le Massachusetts Institute of Technology, explique que si certains algorithmes contiennent des biais, c’est une conséquence des biais cognitifs des concepteurs et conceptrices.

Elle cite en exemple l’application Health, du géant Apple, qui permet aux utilisatrices et utilisateurs de mesurer plusieurs de leurs variables biométriques, comme le rythme cardiaque et la tension artérielle. Or, dans sa première version, l’application ne permettait pas aux femmes de mesurer certains paramètres relatifs à leur cycle menstruel. En effet, l'équipe ayant conçu l’application était composée essentiellement d'hommes et avait « oublié » ce paramètre.

Même si la situation a été corrigée depuis, cet exemple montre à quel point les biais cognitifs peuvent se transmettre aux outils numériques.

Selon Aurélie Jean, la multidisciplinarité au sein d’une équipe de recherche ou de conception semble être un excellent rempart face aux biais cognitifs.

Ça peut être des gens du métier, des psychologues, des philosophes, des gens de plein d’autres domaines qui peuvent, par leur œil extérieur, leur analyse critique et leur connaissance du métier, nourrir la réflexion des scientifiques, et permettre ainsi d’éviter les biais.

Aurélie Jean, scientifique numéricienne et entrepreneure

Vos commentaires

Veuillez noter que Radio-Canada ne cautionne pas les opinions exprimées. Vos commentaires seront modérés, et publiés s’ils respectent la nétiquette. Bonne discussion !

Vous aimerez aussi