« Un algorithme ou un robot ne peut pas être macho puisqu'il n'a pas de personnalité juridique ou morale. C'est nous qui sommes machos. C'est ça qu'il faut dire. [...] Ce sont nos propres préjugés, nos propres biais cognitifs qui se transmettent à l'algorithme, à l'outil », affirme Aurélie Jean, scientifique numéricienne et entrepreneure. Celle qui a été nommée femme d'influence 2019 par le magazine Forbes pense qu'il est primordial d'avoir une diversité de collaborateurs et collaboratrices au sein des équipes de conception de produits numériques pour contrer ce phénomène.
Aurélie Jean, qui a entre autres travaillé neuf ans aux États-Unis dans des établissements comme le Massachusetts Institute of Technology, explique que si certains algorithmes contiennent des biais, c’est une conséquence des biais cognitifs des concepteurs et conceptrices.
Elle cite en exemple l’application Health, du géant Apple, qui permet aux utilisatrices et utilisateurs de mesurer plusieurs de leurs variables biométriques, comme le rythme cardiaque et la tension artérielle. Or, dans sa première version, l’application ne permettait pas aux femmes de mesurer certains paramètres relatifs à leur cycle menstruel. En effet, l'équipe ayant conçu l’application était composée essentiellement d'hommes et avait « oublié » ce paramètre.
Même si la situation a été corrigée depuis, cet exemple montre à quel point les biais cognitifs peuvent se transmettre aux outils numériques.
Selon Aurélie Jean, la multidisciplinarité au sein d’une équipe de recherche ou de conception semble être un excellent rempart face aux biais cognitifs.
« Ça peut être des gens du métier, des psychologues, des philosophes, des gens de plein d’autres domaines qui peuvent, par leur œil extérieur, leur analyse critique et leur connaissance du métier, nourrir la réflexion des scientifiques, et permettre ainsi d’éviter les biais. »