•  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  
  •  

Les robots sont-ils machos? 

Un robot regarde des algorithmes.

Les êtres humains transmettent leurs a priori aux algorithmes qu’ils conçoivent.

Photo : getty images/istockphoto / PhonlamaiPhoto

Radio-Canada

Que ce soit en donnant des voix féminines aux assistants personnels ou en omettant d’inclure des fonctionnalités liées au cycle menstruel dans des applications de suivi de santé, le monde de la technologie a souvent été montré du doigt pour son a priori sexiste.

La situation n’est guère différente quand il est question d’algorithmes. C’est pour cette raison que la docteure en sciences numériques et entrepreneure française Aurélie Jean a intitulé sa conférence de jeudi, qui se tenait au Centre hospitalier de l'Université de Montréal (CHUM), Les robots sont-ils machos ? Elle y expliquait alors comment les êtres humains transmettent leurs biais aux algorithmes qu’ils conçoivent. 

Mme Jean baigne depuis longtemps dans l’algorithmique. Nommée femme d’influence 2019 par l’édition française du magazine Forbes, la docteure en sciences numériques et entrepreneure enseigne aujourd’hui ce sujet au niveau universitaire aux États-Unis et collabore avec le ministre de l’Éducation nationale de la France pour réfléchir aux thèmes entourant l’éducation de l’intelligence artificielle.

Voici la discussion que nous avons eue avec elle à ce sujet.

Aurélie JeanAgrandir l’image (Nouvelle fenêtre)

La docteure en science numérique et entrepreneure Aurélie Jean

Photo : Courtoisie / Geraldine Aresteanu

Radio-Canada : Et alors, les robots sont-ils machos? 

Aurélie Jean : La question est provocante, parce qu’elle est mal posée. Les robots ne peuvent pas être machos vu qu’ils n’ont pas de personnalité morale et physique, donc en fait, c’est nous qui sommes machos.

Dans ma présentation, je démarre avec cette question et, à la fin, je la reformule après avoir amené les gens en douceur vers l’absurdité de la question en disant en fait que la vraie question, c'est : Sommes-nous machos?

L’idée, c’est de voir comment nous pouvons concevoir des outils et des algorithmes dans lesquels on n’introduit pas nos biais cognitifs, parce qu’en fait, c’est parce qu’on a des biais cognitifs dans les outils qu’on développe qu’on arrive à des discriminations technologiques, c’est-à-dire des technologies qui écartent une partie de la population de leur usage. 

Qu’est-ce qu’un biais algorithmique?

Lorsqu’on développe un algorithme, on va lui fournir des données qui serviront à le calibrer, ou à lui faire apprendre. 

Nous sommes des humains et avons nos propres stéréotypes, préjugés et biais cognitifs qu’on va introduire dans ces produits, parce qu'on va peut-être mal choisir ses données ou oublier des critères qui vont écarter une certaine partie de la population. C’est là où on passe d’un biais cognitif à un biais algorithmique.

Donnez-nous des exemples concrets.

Les premiers algorithmes de reconnaissance faciale ne reconnaissaient pas la peau noire. En fait, ils avaient été conçus presque uniquement par des personnes blanches qui n’avaient pas pensé à introduire certaines conditions sur les images, à savoir des contrastes d’images pour considérer les peaux foncées.

Un autre exemple : il y a un an, à Amazon, ils ont fait un test d’algorithme pour sélectionner des CV pour des postes de développeur. Ils avaient entraîné l’algorithme sur les embauches des 10 dernières années, mais le problème, c’est qu’en faisant ça sans œil critique, ils ont reproduit les erreurs du passé : très peu de femmes avaient jusque-là été choisies en tant que développeur, et forcément, l’algorithme sous-évaluait systématiquement la valeur d’un profil féminin.

Ce sont deux exemples où il y a une discrimination technologique due à un biais qui provient soit de la donnée qu’on fournit à l’algorithme, [soit] de la logique des critères qu’on définit explicitement.

Comment minimiser ces biais lorsqu’on conçoit des algorithmes?

Il y a plusieurs angles à explorer. Le premier, bien évidemment, est d’avoir des gens qui conçoivent des outils qui sont divers, c’est-à-dire d’avoir une diversité exemplaire et non parfaite, parce qu’on ne peut pas vraiment avoir une diversité parfaite. On doit chercher cette diversité et se questionner sur les manières de faire, d’agir et de penser.

Après, il faut former tous les gens qui sont sur le chemin de la production algorithmique dans une entreprise. Quand on produit un outil, il y a la personne qui pense l’outil; il y a la personne qui le conçoit; la personne qui le développe; une personne qui le teste; une personne qui le vend; et autres. Tous ces gens-là devraient être formés pour défier ceux qui conçoivent l’outil pour qu’ils puissent l’améliorer.

J’ai développé des modèles assez compliqués dans le domaine médical, et si je n’avais pas travaillé avec des médecins, j’aurais sûrement oublié des choses. Il faut que les gens travaillent ensemble pour minimiser les biais.

Que peut-on faire pour avoir davantage la diversité le domaine?

Il faut s’y prendre très tôt, dès l’école, et exprimer aux garçons et aux filles ce qu’on peut faire avec l’intelligence artificielle, l’algorithmique et les sciences numériques. 

Il faut aussi parler aux parents. Les enfants, on peut facilement les inspirer et les faire rêver, mais les parents ont eux aussi des biais cognitifs, des préjugés, et vont peut-être plus encourager un garçon qu’une fille. 

On voit beaucoup de femmes qui font des études supérieures en sciences et qui, en sortant de leur diplôme, sortent très vite de leur métier. Il faut les retenir et leur expliquer ce qu’elles peuvent faire avec ça pour qu’elles se sentent en confiance et bien accueillies, et qu’elles sentent qu’elles ont les mêmes chances de réussir que leurs camarades masculins.

Et tout ça ne se limite pas seulement à la diversité des sexes, n’est-ce pas?

Je parle d’hommes et femmes parce que c’est assez flagrant, mais il y a aussi tous les genres de diversité, comme la culture, l’orientation sexuelle et l’âge.

L’âge, on n’en parle pas assez. Si on est un groupe de 25-35 ans à développer un outil, on risque d’oublier certaines considérations pour les populations séniores ou les populations plus jeunes. Je pense qu’on a besoin d’une pluralité des visions pour que les gens se confrontent sur leur manière de voir les choses pour développer des outils plus riches.

Intelligence artificielle

Techno